La Comisión Federal de Comercio (FTC, en inglés) abrió una amplia investigación sobre OpenAI, para determinar si su chatbot con inteligencia artificial (IA) ChatGPT ha infringido las leyes de protección al consumidor al poner en riesgo la reputación y los datos personales de los usuarios, según informó este jueves The Washington Post.
La comisión envió esta semana una demanda de investigación civil de 20 páginas a la startup liderada por Sam Altman donde plantea a OpenAI varias preguntas, como sus prácticas para entrenar modelos de IA y su manejo de la información personal de los usuarios.
Entre los diversos ejemplos que detalla la larga carta, a la que tuvo acceso The Washington Post, figura un incidente de 2020 en el que la empresa reveló un error que permitía a los usuarios ver información sobre otros chats e información relacionada con el pago de otros usuarios.
ChatGPT obtuvo gran popularidad tras su lanzamiento público y gratuito en noviembre y consiguió un récord de 100 millones de descargas en 2 meses.
Qué es ChatGPT
La herramienta es un chatbot entrenado para mantener conversaciones, que puede entender y comprender preguntas de los usuarios.
De acuerdo a sus características cuenta con más de 175 millones de parámetros, y fue programado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de texto, respondiendo en segundos a las consultas más variadas de un usuario, como la resolución de un problema matemático, la redacción de un ensayo académico o la receta de un pastel de manzanas.
La FTC pidió a OpenAI que proporcionara descripciones detalladas de todas las quejas que había recibido de sus productos que hacían declaraciones "falsas, engañosas, despectivas o dañinas".
Además, según la misiva, la comisión está investigando si la empresa participó en prácticas desleales o engañosas que resultaron en un "daño a la reputación" de los consumidores.
En una de sus respuestas, ChatGPT dijo que un abogado (que realmente existía) había hecho comentarios sexualmente sugerentes e intentó tocar a un estudiante en un viaje escolar, citando un artículo que, según dijo el chatbot, había aparecido en The Washington Post.
El problema de las "alucinaciones"
Pero tal artículo no existía, el viaje nunca ocurrió y el abogado afirmó que nunca fue acusado de acosar a un estudiante.
La agencia también exigió una descripción detallada de los datos que OpenAI usa para entrenar sus productos y cómo está trabajando para evitar lo que se conoce en la industria de la tecnología como "alucinaciones", problema que se da cuando las respuestas del chatbot están bien estructuradas pero son completamente incorrectas.
Si la FTC determina que una empresa viola las leyes de protección al consumidor, puede imponer multas o someter a la empresa a un decreto de consentimiento, que puede dictar cómo la empresa maneja los datos.